首页> 外文OA文献 >Domain Adaptation of Recurrent Neural Networks for Natural Language Understanding
【2h】

Domain Adaptation of Recurrent Neural Networks for Natural Language Understanding

机译:自然语言中递归神经网络的域自适应   理解

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

The goal of this paper is to use multi-task learning to efficiently scaleslot filling models for natural language understanding to handle multipletarget tasks or domains. The key to scalability is reducing the amount oftraining data needed to learn a model for a new task. The proposed multi-taskmodel delivers better performance with less data by leveraging patterns that itlearns from the other tasks. The approach supports an open vocabulary, whichallows the models to generalize to unseen words, which is particularlyimportant when very little training data is used. A newly collectedcrowd-sourced data set, covering four different domains, is used to demonstratethe effectiveness of the domain adaptation and open vocabulary techniques.
机译:本文的目的是使用多任务学习来有效地扩展插槽填充模型的自然语言理解能力,以处理多个目标任务或领域。可伸缩性的关键是减少学习新任务模型所需的训练数据量。拟议的多任务模型通过利用从其他任务中学到的模式,以更少的数据提供了更好的性能。该方法支持开放的词汇表,这允许模型将其推广到看不见的单词,这在使用很少的训练数据时尤其重要。一个新收集的人群数据集涵盖了四个不同的域,用于演示域自适应和开放词汇技术的有效性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号